Smiley face

【ニュートンから】AIは半導体で進化する(3)

写真・図版
AIは半導体で進化する

 AIの性能向上に大きな役割を果たしたのが,「大規模言語モデル(LLM)」だ。大規模言語モデルとは,ディープラーニングを使って大量の言語データを学習することで,文章の理解や生成を可能にするAIの一種である。2018年にグーグルが発表した「BERT」をきっかけに,さまざまな大規模言語モデルがつくられるようになった。「チャットGPT」は,OpenAIの大規模言語モデル「GPT」を土台にしてつくられたアプリである。

 大規模言語モデルは,インターネットなどから大量の言語データを取得して学習しており,その性能は年々向上している。AIアシスタントや生成AIの基盤となっており,現代のAIに欠かせない技術である。

計算量の増加に対応できる半導体に需要

 大規模言語モデルは,「大規模」という名のとおり,非常に大きな学習データを必要とする。大規模言語モデルの性能を示す指標の一つに「パラメータ」がある。これはモデルが学習を行うときの「複雑さ」に関係する数であり,一般的にパラメータの数が多いほどデータを細かく学習することができる。端的にいってしまえば,パラメータ数が多いほど賢くなるというわけだ。

 一方で,パラメータ数が多く…

共有